▍AI界扛霸子NVIDIA的深度學習(DeepLearning)指定教材!
▍GPT、Transformer、seq2seq、self-attention機制...大型語言模型(LLM)背後的先進技術「硬派」揭密!
近年來,在NVIDIA(輝達)GPU、CUDA技術的推波助瀾下,深度學習(DeepLearning)領域有著爆炸性的成長,例如最為人知的ChatGPT正是運用深度學習技術開發出來的當紅應用。
【★學深度學習,跟AI重要推手-NVIDIA學最到位!】
除了硬體上的助益外,為了幫助眾多初學者快速上手深度學習,任職於NVIDIA的本書作者MagnusEkman凝聚了他多年來在NVIDIA所積累的AI知識撰寫了本書。除了介紹深度學習基礎知識外,也包括此領域的最新重要進展。本書同時也是NVIDIA的教育和培訓部門-【深度學習機構(DeepLearningInstitute,DLI)】指定的培訓教材(https://www.nvidia.com/zh-tw/training/books/)。
要學深度學習,跟深度學習的重要推手NVIDIA學就對了!眾多紮實的內容保證讓你受益滿滿!
【★機器視覺、生成式AI語言模型100%從零開始打造!】
在深度學習的教學上,本書將從神經網路的底層知識(梯度下降、反向傳播...)介紹起,帶你打好深度學習的底子。接著會介紹用Colab雲端開發環境+tf.Keras建構、調校多層神經網路,以及經典的CNN(卷積神經網路)圖形辨識模型建構...等機器視覺主題。最後則邁入自然語言處理(NLP)領域,在介紹完基本的RNN/LSTM知識後,以先進的Transformer、GPT...語言模型架構做結。
尤其自從ChatGPT爆紅之後,自然語言處理(NLP)一直是深度學習的熱門研究話題,而這部分正是本書最精彩之處!
RNN/LSTM神經網路雖然問世已有一段時間,現今一些先進的NLP模型或許不會用它們來建構,但由它們衍生出來的hiddenstate(隱藏狀態)概念可說是重中之重,我們會帶你好好熟悉,以便能跟後續章節順利銜接上。
之後則會利用各種神經網路技術帶你實作【多國語言翻譯模型】、【Auto-Complete文字自動完成模型】...等範例。從處理原始文字訓練資料→切割資料集→建構模型→模型調校、優化,從頭到尾示範一遍,帶你紮穩大型語言模型(LLM)的建模基礎。
令小編最印象深刻的是,本書所設計的NLP章節內容可說是「環環相扣」,從RNN/LSTM章節初次觸及NLP模型開始,次一章的模型架構幾乎都是為了解決前一章模型的特定問題而生的。這種層層舖墊的獨到方式能讓你深刻理解RNN/LSTM/seq2seq/encoder-decoder/attention/self-attention機制...等技術的發展脈絡,對於看懂Transformer、GPT等最先進的神經網路技術有莫大的幫助,這絕對是其他書看不到的精彩內容!
本書特色:
□【徹底看懂ChatGPT背後核心技術-GPT的模型架構】
GPT、Transformer、encoder-decoder、seq2seq、self-attention機制、attention機制、query-key-value機制、Multi-head、位置編碼(positionalencoding)、預訓練(pre-train)、微調(fine-tune)...各種建模技術輕鬆搞懂!
□【生成式AI語言模型100%從零開始打造!】
‧用Colab+tf.Keras實作多國語言翻譯模型、Auto-Complete文字自動完成模型
‧從處理原始文字訓練資料→切割資料集→建構模型→模型調校、優化,從頭到尾示範一遍,帶你紮穩大型語言模型(LLM)的建模基礎
□【深度學習基礎知識學好學滿】
‧紮穩根基!不被損失函數/梯度下降/反向傳播/正規化/常規化…一拖拉庫技術名詞搞的暈頭轉向!
‧深度神經網路基礎/CNN/RNN/LSTM...概念詳解。
‧多模態學習(multimodallearning)、多任務學習(multitasklearning)、自動化模型架構搜尋...熱門主題介紹。
□詳細解說,流暢翻譯
本書由【施威銘研究室】監修,書中針對原書進行大量補充,並適當添加註解,幫助讀者更加理解內容!
機器視覺 NLP 深度學習 AI NVIDIA 翻譯 先進 建模 模型 語言 文字
OPENAIAPI CHATAPI DISCORD 深度學習 學習 演算法 遊戲 AI 工程師 機器學習 SQL 助理 辨識 資料科學家 ML 客製 字幕 數學 應用 模型 JAVASCRIPT 整合 工具 GPTS API 語言 SSD 應用程式 CALLING 電腦 建立 使用者 WEB 乒乓球 EMBEDDING